Dark Matter @ DAMA

1 Cosa e perché dark matter

L'idea della materia oscura è nata per spiegare anomalie nel moto di oggetti astrofisici. Come accade ogni volta, nel momento in cui vengono rivelate tali anomalie, le possibili vie di ricerca per spiegarle sono due: modificare la legge di gravitazione universale, o identificare masse ancora mai osservate.

1.1 Cinematica

Le osservazioni che hanno palesato le citate anomalie sono molteplici a partire dagli anni 30:

  • Ammassi di galassie 1933, con le prime misure di redshift in galassie e ammassi di galassie, Zwicky scopre, investigando il Coma cluster una discrepanza dal valore di massa ottenuto dalla luminosità $L$ della materia visibile e la totale massa del cluster, con un rapporto $\frac{M_{33}\; g}{L_{33}\; erg/s} = 500$. Nel 1936 Smith con il Virgo cluster ottiene $M/L = 300$. Cioè in pratica con la spettroscopia hanno misurato red/blueshift del moto lungo la linea di vista, e usando le galassie nella zona più esterna dell'ammasso, avevano visto per la prima volta che materia (visibile) delle galassie più esterne aveva certe velocità, ma poi, vedendo le misure di luminosità, erano troppo più basse della massa dell'ammasso stimata dalle velocità osservate. Quindi perché i clusters stessero assieme con tali velocità era necessario che ci fosse un sacco di massa non visibile. (Questo è il primo indizio ma non determinante: molta materia emette poco o pochissimo con temperature di pochi kelvin, quindi dal punto di vista di Zwicky e Smith è possibile che semplicemente al tempo non si riuscisse a osservare?) nel caso dei cluster si vede anche gravitational lensing dovuto a DM diffusa, ma di questo ne parleremo dopo (hubble con abell 1689, altre survey?)

  • Galassie dopo gli ammassi, si cominciò a investigare galassie singole, osservando la velocità rotazionale. 1939-40 Babcock e Oort ottengono con varie galassie valori $M/L\sim 10^2$, (nel caso di galassie ellittiche 5 volte maggiore di quelle a spirale)

  • Sistemi binari di galassie Kahn-Woltjer studiano moto reciproco Via Lattea-galassia di Andromeda, ottenendo un valore 10 volte più grande delle stime disponibili al tempo. La spiegazione fu attribuita a massa extra nella materia interstellare, invisibile elettromagneticamente ma che porta sensibili effetti gravitazionali. Al tempo ancora non era stata (prevista e) osservata la riga da 21cm dell'idrogeno.
  • Riga 21 negli anni 50 e 60 vennero effettuate misurazioni nel radio per studiare la distribuzione dell'idrogeno fino a quel momento invisibile usando la riga 21. Focalizzando le osservazioni nella Via Lattea e, soprattutto, successivamente nella galassia di Andromeda si è potuto misurare la velocità rotazionale a distanze fino a 30 kpc dal centro galattico di quest'ultima. Unendo le osservazioni in radio e in ottico nel 1970 si ottenne la curva della velocità rotazionale in funzione del raggio.

Per un oggetto di massa m, la sua velocità angolare dipende $$m \omega^2 r = G \frac{mM}{r^2}$$ come funziona se gran parte della massa è a distanze grandi? se aumenti la massa centrale la omega aumenta, e fin qui ci sono, ma qui aumenti la massa ai confini in slide rahatlou si dice che la zona crescente core della galassia, entro 1kpc

Risultati definitivi

Ulteriori osservazioni su altre galassie hanno mostrato persistentemente una curva che a grandi distanze diventa piatta, compatibile con $M/L \sim 100$ nelle regioni periferiche, portando alla conclusione dell'esistenza di un alone di materia oscura nelle galassie. Recenti misure hanno portato a determinare la curva rotazionale fino a 80 - 100 kpc. Nel caso di via Lattea la stima di massa dell'alone è dell'ordine di $10^{12} M_\odot$, contro un $\sim 7*10^{11} M_\odot$ di materia "visibile". Invece, nella Via Lattea come in tutte le galassie osservate, la massa di materia oscura nel centro galattico è di $\sim 0.1 M_\odot$, in pratica compatibile con 0. Nel disco della Via Lattea la DM al rappresenta una parte minoritaria della massa totale (15% circa). (Si stima che nelle galassie a spirale l'alone si spinga fino a $\sim$200 kpc.) Più lontano si va, più il rapporto M/L. Guardando le galassie vicine, dove la DM è quasi tutta nelle periferie galattiche, questo è giustificato con il fatto che più la galassia è giovane, meno ha disperso materia oscura Questo perché, dato che la DM ha pochissima probabilità di disperdere energia cinetica, avendo sezione d'urto di interazione con altre particelle (anche di DM, altrimenti avremmo più DM dentro la galassia) bassissima, è molto più favorita nel rimanere lontano dal disco (in particolare sopra-sotto). Non dissipando non può formare una struttura appiattita e rimane a sfera. Questo nelle più lontane e quindi giovani galassie ellittiche e sopratutto nane sferiche è massimamente vero ma non ho capito perché. (Altre info sulla distribuzione di massa nelle zone più esterne della Via Lattea si hanno osservando la cinematica dei flussi di stelle, di gas, di ammassi globulari e di galassie satellite) *(Per galassie molto lontane, le osservazioni in banda X sono utili per ottenere dati cinematici dai gas caldi circondanti, oltre alle curve rotazionali. Per le galassie vicine la maggior parte dell'informazione viene dallo studio del moto stellare)

1.2 Rel gen

Una parte importante della ricerca astrofisica della materia oscura sta nello studio del gravitational lensing dovuto a effetti general-relativistici: la DM è soggetta a interazione gravitazionale, quindi grandi quantità di massa di DM producono sensibili effetti lente. Ciò è stato visto nel Bullet Cluster e nell'ammasso MACS J00?.

in pratica vedi video carino

persino con l'Abell supercluster, dove è stato visto un filamento DM che connette le due parti principali del sistema, tramite un debole effetto lente.

1.3 Cosmologia

Dal punto di vista cosmologico, evidenze della presenza di DM vengono da osservazioni di supernove 1a distanti (candele standard) (solo studio redshift cosmologico o anche qualcosa di dinamica? eg da AGN si possono avere entrambe le info, chiedere a Fiore di DM signatures in AGN o GRB) e delle oscillazioni acustiche della materia barionica sulle strutture a grande scala (righelli standard) da un lato, del cosmic microwave background dall'altro. Da queste misure si hanno informazioni sul parametro di Hubble (e sulla metrica dell'universo)

Il parametro di Hubble $H$ si può esprimere, secondo le equazioni di Friedmann, usando i contributi delle varie componenti di energia e materia alla costante $\Omega$, il rapporto tra densità radiazione-materia dell'universo stimata su quella critica data dalle equazioni di Friedmann (che ne definisce la geometria, nb equazioni di Friedmann sono soluzioni alle equazioni di Einstein che descrivono una metrica omogenea, isotropa e in espansione): $$H^2 = H_0^2 \left[\Omega_\Lambda a^{-3(1+w)} + \Omega_r a^{-4}+ (\Omega_{bar}+\Omega_{DM}) a^{-3}+\Omega_k a^{-2}\right]$$

Con $H_0$ il valore della costante di Hubble al giorno d'oggi e H (BOH!??!) Tralasciando la spiegazione di questa equazione, la costante di Hubble dipende quindi dai parametri di densità $\Omega_x := \rho_{x,0}/\rho_{c,0}$ (in realtà $\Omega_k = -k/H_0^2$ semplicemente è il termine di curvatura, sotto 0 chiuso sfera, sopra aperto sella, a 0 piatto euclideo) delle varie componenti dell'universo rispetto alla densità critica $\rho_c = 3H_0^2/8\pi G$ (e anche dalla pressione negativa osservata che dà una equazione di stato $w = P/\rho < -1/3$ dovuta alla dark energy. NB omega dark energy è il termine relativo alla costante cosmologica se e soltanto se w=-1!), misurati all'istante presente.

Confrontando le stime di H, della parte nota di materia e radiazione, si ottengono stime di $\Omega$ delle varie componenti

  • $\Omega_r \approx 0.05%$
  • $\Omega_{bar} \approx 5%$ compatibile con valore previsto con il modello del Big Bang
  • $\Omega_{DM} \approx 27%$
  • $\Omega_\Lambda \approx 68%$

NB: da non confondere $\Omega_{bar}$ con la sola $\Omega_{luminosa}$, che rappresenta solo lo $0.4%$, dato che grossa parte dei barioni non emette in maniera significativa luce (mezzo intergalattico diffuso) o per nulla (buchi neri).

2 Possibili modi di ricerca diretta

Ricerca diretta deve partire da "cosa stiamo cercando"? Possibili candidati:

  • neutrini: improbabile, secondo gli attuali modelli di evoluzione cosmologica, osservazioni sulle strutture di larga e piccola scala portano constraints al contributo della massa neutrinica $\Omega_\nu$ al più al 3% della totale massa dell'universo. Infatti, sempre da considerazioni cosmologiche, la DM non può essere calda, quindi deve essere non relativistica (in senso stretto), difficile allora che neutrini con massa sotto l'EV, quindi molto relativistici o meno siano DM. Se così fosse, tutta questa materia ultrarelativistica avrebbe impedito la formazione di qualsiasi struttura.

  • WIMP, nome generico per svariati tipi di oggetto, dalle particelle supersimmetriche (eg neutralini), assioni, condensati di bose, buchi neri elementari, etc, oppure un mix di tutte queste cose, di molte altre, e di altre ancora non modellizzate. Se la materia nota, rappresentante solo l'1% della densità dell'universo è composta da così tante particelle dalla natura più varia, nulla vieta che ci siano tante possibili componenti della DM.

Ovviamente qui stiamo escludendo la possibilità di una quinta forza o di una gravimodi. Si sa solo che devono interagire gravitazionalmente, e anche debolmente altrimenti non possono avere massa senza accoppiamento higgs. Detto questo, le possibili interazioni con la materia, e cioè in modi con cui ricercare la DM sono tre:

  • sintesi (EG in acceleratori), tali esperimenti possono naturalmente rivelare, e anche provare (se si riesce ad avere un risultato solidamente nodel indipendent)l'esistenza di qualche possibile DM candidate, ma non si potrà affermare che una determinata particella rivelata sia una soluzione per il problema DM, e sopratutto che non sia l'unica. In più dei tanti scenari ipotizzati, gli acceleratori non possono coprirli tutti.

  • annichilazione (cioè una rivelazione indiretta: vengono rilevate particelle sintetizzate a seguito di annichilazione di darkmatter (annichilazione con antidarkmatter o qualche altro procedimento ipotizzato?)). Questi procedimenti indiretti sono fortemente model dependent, indagati con esperimenti sotto terra/acqua/ghiaccio o in orbita con lo scopo di ricercare particelle prodotte dalla annichilazione di due DM particelle. Ovviamente questo richiede un'ipotesi sulla natura e sullo scenario di indagine, per poter modellare il background e escluderlo.

  • scattering, eg su nuclei, cioè rivelazione diretta da recoiling di nuclei colpiti da una particella dark

NB: è impossibile fare un confronto diretto tra risultati ottenuti da vari esperimenti model dipendent, sia tra loro, sia con esperimenti model indipendent! Infatti, per esempio il rate di conteggi nella riceca diretta è proporzionale alla sezione d'urto di rivelazione, cioè di scattering con le particelle bersaglio. Invece quello dei metodi indiretti dipende anche dalla sezione d'urto prevista di scattering DM-DM e dai BR di produzione delle particelle rilevabili secondo i modelli di particelle DM. Quindi le sezioni d'urto complessive dei processi indiretti sono correlabili con quelle dei processi diretti, ma dipendono sempre dal modello utilizzato nei processi indiretti. Di base non esistono constraint possibili utilizzabili da processi indiretti per la ricerca diretta.

Anche i processi diretti hanno alcuni problemi. Per esempio il primo approccio era misurare la distribuzione energetica (di cosa??) in certi intervalli con delle distribuzioni attese a seconda dello scenario considerato (astrofisico, particellare...), unico adottabile per esperimenti di piccola scala e piccolo ciclo operativo. Hanno dato alcuni constraint a $m_{WIMP}$ e $\sigma_{n-W}$ a seconda degli scenari. Il problema è che questo approccio non è mod ind, dato che la stima dell'expected dipende da modelli (oltre che all'affidabilità delle procedure sperimentali e dei parametri fissati), e quindi necessitano un'assunzione a priori della natura/interazioni/caratteristiche della DM candidate (cioè gli exclusion plot dipendono dai parametri in gioco, oltre che dal modello nello scenario considerato). Altro problema, è che l'errore sistematico delle misurazioni può essere elevato, e le ipotesi che permettono di escluderlo dipendono sempre dai modelli, cioè dall'assunzione a priori della natura e le interazioni del DM candidate per capire cosa è davvero nuclear recoil come piace a noi e cosa invece è errore sistematico, quindi ancora una volta gli exclusion plot dipendono dai modelli.

(saltatti due esempi di problemi di rivelazione in assunzione spin depending, saltati possibili esperimenti per vedere nuclear recoil anisotropico)

Il problema di tutti questi metodi è che sono finora tutti model dependent, eccetto quello diretto che sfrutta lo scattering su nuclei di particelle provenienti dall'alone galattico, sfruttando la modulazione annuale dovuta al moto della terra attorno al Sole. È necessario infatti avere un esperimento model indipendent, con un background molto basso data la rarità dell'evento ricercato (attualmente si stima che la sezione d'urto di un WIMP con la materia sia all'incirca quella dei neutrini (elettronici) TODO da prendere biblioref), e quindi anche tempi di esposizione molto lunghi con il pieno controllo di tutte le condizioni e parametri in gioco.

(a quanto ho capito anche i processi diretti possono avere problemi, il motivo per cui quello di dama è ok è perché non cerca il count, ma la differenza di count annuale)

2.1 Recoil

Il nuclear recoil avviene in seguito a un interazione di un WIMP con un nucleo. Molto difficile perché bisogna scegliere la scala di energia giusta, e bisogna avere un estremo controllo di background data la alta sensibilità. A seconda del materiale che compone il rivelatore, i recoil possono essere misurati sotto forma di fononi (calore o vibrazione) o carica/ionizzazione (nei rivelatori a semiconduttore), oppure sotto forma di luce in materiali scintillatori, per esempio con ioduro di sodio $NaI$. Il rate differenziale in funzione dell'energia è $$\frac{dR}{dE_{recoil}} = \frac{\sigma(q)\rho_{DM}}{2\mu_{DM}\mu^2}\int_{v_{min}(E_{recoil})}^\infty dv^3 \frac{f(v,t)}{v} $$ dove $\mu_{DM}$ è il parametro di massa di DM e $\mu$ è la massa ridotta DM-nucleo, $\sigma$ è la sezione d'urto di scattering in funzione del momento trasferito $q$, $\rho_{DM}$ è la densità di DM e $f(v,t)$ è la distribuzione di velocità della DM, con $v_min(E_{recoil})$ la minima velocità che può avere un WIMP per provocare un recoil di energia E_{recoil}.

2.2 Modulazione annuale

Il sole, assieme al sistema solare, si muove nel frame galattico a una velocità di $v_\odot = \sim 230 km/s$ (questa velocità è composta da $v_0 + 220 \pm 50 km/s$ dato da curve rotazionali di via lattea, che quindi si presume sia la velocità rotazionale della DM, più 12 km/s di velocità del sole verso il local standard rest). La terra ruota attorno al sole con una velocità di $v_\oplus=\sim 30 km/s$, con il piano di rotazione inclinato di $60°$ rispetto a $v_\odot$. Questo provoca il fatto che nell'arco di un anno, la terra si muoverà con una componente di velocità parallela a $\vec{v}_\odot$ maggiore e minore a seconda dei periodi dell'anno, provocando il fatto un rivelatore sulla terra ha un maggior numero di rivelazioni quando il verso della componente orbitale lungo $v_\odot$ sia concorde e minore quando è discorde (da notare che i massimi e minimi si compiono al 2 giugno e al 2 dicembre, quindi scorrelate con le stagioni che hanno periodi e fasi diverse). Proiettando quindi la velocità della terra sul piano galattico, si ha $$v_e (t) = v_\odot + v_\oplus cos\theta cos(\omega(t-t_0))$$ con $\omega = 2\pi/T$ con $T = 1 yr$. Il rate differenziale aspettato, in funzione dell'energia, dipenderà quindi da questi fattori, quindi da $v_e(t)$: $dR(v_e(t))/dt$, e il suo integrale in un certo intervallo di energia scelto $\Delta E$ sarà, in approssimazione al primo ordine, il segnale S a una certa energia fissata E, sarà $$S(v_e(t)) = \int_{\Delta E} \frac{dR}{dE}dE \sim S_0 + S_m cos(\omega(t-t_0))$$, con $S_0=S(v_0)=S(v_e(0+kT))$ e $S_m = \partial S/\partial v_e|_{v_0}\Delta v_e$.

(Scrivendo tutto in unità di v_0: $\bar{v}(t)=$... tralascio per risparmiare passaggi)

Quindi il segnale deve presentare questi requisiti:

  1. deve avere periodo di un anno.
  2. deve avere il picco a t_0 circa il 2 giugno
  3. questa modulazione deve essere trovata in un intervallo di energia ben preciso, e nello specifico abbastanza basso perché particelle pesanti poco interagenti possano interagire (non mi so giustificare questo discorso)
  4. se si hanno più rivelatori vicini, è molto poco probabile che 1 triggeri (circa 10^-41 di sezione d'urto), a maggior ragione che triggerino due assieme, quindi questi eventi vanno esclusi
  5. e poi dovrebbe avere una modulazione di intensità attorno al 7% secondo la distribuzione di DM ipotizzata per la via Lattea dalle curve di velocità (ma potrebbe anche essere più larga)

La cosa importante di questo fenomeno è che non si misura S: la parte costante del segnale è trascurata, ci interessa solo la modulazione in funzione dell'energia. In questo modo si evitano molti possibili effetti sistematici e si evita la necessità di modellizzare alcunchè sul tipo di interazioni e natura del DM candidate (nb dato che stiamo parlando di roba random, il S_0 lo si leva da analisi dati)

Per poter rivelare questo fenomeno, quindi è necessario un esperimento molto sensibile e con un background bassissimo

3 DAMA

3.1 Cosa e perché DAMA

È un esperimento volto a osservare processi rari mediante l'uso di scintillatori molto poco radioattivi, molto sensibili, in condizioni di background molto basso. La parte che si occupa principalente di misurare la modulazione annuale di DM è DAMA/LIBRA. La versione precedente, DAMA/NaI usava uno scintillatore composto da 100kg di ioduro di sodio drogato con tallio (NAI(TL)) e ha preso dati per 7 cicli annuali sino al 2002. Quella attuale, DAMA/LIBRA ha incrementato i 100 a 250kg di NAI(Tl). I pro di questo materiale sono che

  • garantisce lunghi tempi operativi, la tecnolgoia è ben conosciuta (degli anni 40), può essere fatto con grandi masse,
  • non ha problemi di sicurezza, costa poco, è molto compatto (richiede poco spazio),
  • ha molto poco rumore interno, dato può raggiungere una alta radiopurezza e il rumore microfonico è assente, può essere ben calibrato a energie basse nell'ordine dei keV, ha un alto responso luminoso, è molto stabile e riproducibile dato che non necessità di ripurificazioni o particolari temperature di operatività, IMPORTANTE può essere splittato in tanti pezzi per poter agevolare l'identificazione del segnale e il BG rejection, ha alta sensibilità sia per alte masse che basse masse del DM candidate e con molteplici interazioni si ipotizzi le DM abbiano nei vari scenari particellari,
  • possibilità di indagare accuratamente l'annuale modulazione E parecchi altri processi rari

3.2 Come

Set-up

Grazie alla frammentabilità, DAMA/NaI era composto da 9 scintillatori da 9.70kg, posti in alloggiamenti in rame (anch'esso molto radiopuro) e ricoperti da uno scudo passivo per diminuire il background. In DAMA/LIBRA si è passati a 25 scintillatori messi in 5 righe x 5 colonne. (tutte le operazioni di smontaggio di NaI e montaggio di LIBRA sono state fatte in atmosfera di puro azoto radiopuro) In pratica si è fatta una griglia di scintillatori, in cui ogni rivelatore aveva un ID unico; questa distinsione permette di avere un rivelatore complessivo granulare, in cui si può escludere qualsiasi evento che avvenga in più di un solo "mattoncino" (eventi multiple-hit) e tenere solo quelli che hanno interessato SOLO UN rivelatore (single-hit). Come sono composti i singoli mattoncini: il cristallo è fatto accrescere con il metodo Kryopoulos (?) in un crogiuolo di platino, poi il cristallo viene avvolto in fogli di teflon e inserito nei rivestimenti di rame (radiopuro, senza ossigeno e ad alta conduzione). A sua volta i singoli detector vengono inseriti tutti assieme in un altro alloggiamento di rame e collegati a 10cm di guida di luce di quarzo radiopuro, che serve anche come finestra visiva ai rivelatori, dato che è collegato direttamente al cristallo. In ogni rivelatore quindi le guide di luce sono accoppiate alle due facce del cristallo e subito dopo a due fotomoltiplicatori a basso background (hanno guadagno $\sim 10^6$, quantum efficiency $\sim 30\%$ a 380 nm cioè 3 eV, picco su valle di un fattore 2, cioè ha una buona risoluzione sull'impulso del singolo fotoelettrone, le correnti di leakage fanno molto poco rumore, cioè dark noise rate sui 0.1kHz). Se entrambi i fotomoltiplicatori, collegati al cristallo dalle guide di luce, rivelano contemporaneamente si ha il trigger del singolo rivelatore. La sensibilità dei fotomolti è settata per rilevare anche un singolo fotoelettrone. A parte le guide di luce, i fotomolti sono isolati dai cristalli da rivestimenti di rame. Il tutto a sua volta è messo in a scatola di rame al centro di uno shield composito di vari materiali (rame, piombo, cadmio, polietilene, paraffina), e a chiudere il tutto, 1 metro di mattoni ricopre quasi completamente lo scudo passivo. Tutto ciò serve da moderatore di neutroni, principale rischio di bg assieme ai neutrini. La scatola di rame è avvolta in un atmosfera di azoto e tenuto a maggiore pressione dell'ambiente esterno, che comunque ha un'atmosfera tenuta a T costante da condizionatori. La grossa capacità termica dello scudo, di massa di svariati gigagrammi, assicura abbastanza stabilità alla temperatura, ma a questo si affiancano due sistemi di condizionamento, uno a acqua e uno a gas. Il tutto serve per assicurare all'elettronica sempre la stessa temperatura operativa. (sopra c'è una scatola con guanti, appropriatamente isolata e scudata come sopra per metterci sorgenti per la calibrazione)

T&DAQ system

I segnali vengono mandati dai fotomoltiplicatori a dei preamplificatori e poi copiati e mandati in 3 parti:

  1. un analizzatore di forma d'onda
  2. pmt1 e pmt2 vengono sommati e mandati a un ADC e poi a un amplificatore spettroscopico
  3. pmt1 e 2 vengono shapati separatamente da due timing filter amplifiers con shaping time a 50ns, gli output vengno discriminati (sempre separatamente) e poi mandati al pretrigger che consiste in una logica AND, cioè la coincidenza tra i due output provoca il trigger del detector considerato.

Per evitare afterglow, impulsi cerenkov dalle guide e $\beta+\alpha$ subito dopo il triggering, altri trigger sono bloccati per il successivo mezzo millisecondo (che da calcoli introduce un errore sistematico minore dello $10^{-4}$ quindi trascurabile). L'informazione dell'avvenuto pretrigger viene mandata a uno scaler.

Questi segnali DA TUTTI e 25 i pretrigger di tutti i rivelatori poi vengono mandati al main trigger, anch'esso con i $500\mu s$ di blocco ma con logica OR e con un altro scaler che serve a misurare il tempo morto. Il segnale viene splittato in 3 (uno dei 3 va in un trigger analizzatore di forma d'onda, dotato di analizzatore a singolo canale (?) che seleziona solo i segnali dell'intervallo energetico scelto, cosa che è stata messa per velocizzare il DAQ (non ho capito bene perché)).

Il DAQ è composto da un pc con redhat interfacciato all'hardware con BUS. Quando si ha un trigger, esso registra

  • il timestamp dell'evento,
  • il pattern dell'accensione dei detectors (cioè quali e in che posizione),
  • i valori energetici ottenuti da i waveform analyzer e dagli adc

Inoltre registra tutti i parametri del sistema di monitoraggio dell'apparato.

Calibrazione

La calibrazione dell'apparato è stata effettuata con varie sorgenti a svariate energie, sia basse (da 1 a 100 keV) sia alte (sopra i 100 keV), benché l'apparato sia ottimizzato per energie basse. A energie basse si sono utilizzati principalmente raggi x e elettroni auger (da fluorescenza? non spiega bene) di alcuni materiali, a alte emissioni da decadimenti nucleari, EG cattura elettronica etc. Le forme counts/canali sono state confrontate con delle simulazioni che tenessero conto della geometria del sistema. I valori dei picchi misurati con le varie sorgenti sono state fittate con una retta, mostrando con sufficiente confidenza la linearità del sistema di misura

3.3 Risultati

I dati di DAMA comprendono sia i 7 cicli annuali di NaI ($0.29\cdot10^3 Kg\cdot anno$) sia i 6 di LIBRA ($0.87\cdot10^3 Kg\cdot anno$). Gli unici trattamenti fatti ai dati sono, come spiegato precedentemente, la rimozione di effetti indesiderati nella parte guide di luce-fotomoltiplicatori. Dai grafici count vs giorni degli eventi single-hit si osserva l'effetto della modulazione annuale solo nell'intervallo di energia sotto i 6 KeV (NB: sopra i 6 KeV si hanno dati ma non sono visibili modulazioni, MA SOTTO I 2 KEV NON SI HANNO DATI!). Dai dati grezzi di rate $r(t)_{jk}$ (cioè rate al tempo $t$, dal detector $j$ e di energia in intervallo $k$) ne viene sottratta la parte costante $c_{jk}$ e si ha quindi il rate residuo $< r(t)_{jk}-c_{jk} >_{jk}$, cioè media su tutti i rivelatori e tutte le energie.

L'ipotesi di assenza di modulazione è da scartare: ha un chi ridotto $\overline{\chi}^2 = 140/80=1.75 \Rightarrow p \sim 5\cdot 10^{-5}$.

La distribuzione del rate residuo può venire fittata con la curva ipotizzata per la modulazione annuale $Acos(\omega(t-t_0))$; imponendo $T = 2\pi/\omega = 1 anno$, $t_0 = 152.5° giorno$ (2 giugno) e lasciando A libero si ha nell'intervallo 2-6 keV SEMPRE $\overline{\chi}^2 = 65/79 = 0.82 \Rightarrow p \sim 0.8 \Rightarrow 8.8\sigma C.L.$

Da notare che questo tipo di modulazione è presente a energie solo tra 2 e 6: infatti i rate residui a energie tra 6 e 14 keV hanno oscillazione quasi zero, come vedremo con l'analisi della likelihood.

(nb questi risultati sono calcolati con i dati cumulativi di nai e libra)

Per andarci sul sicuro, sono state cercate modulazioni anche ad alte energie. Infatti a basse energie il background principale è costituito da elettroni compton-diffusi, fotoni X/elettroni Auger, eventi da muoni, etc (eventi da neutrini e neutroni), tutti correlati con eventuali fenomeni registrabili nella parte alta dello spettro. Quindi, se dovesse esserci una modulazione annuale dovuta al BG, questa deve palesarsi anche ad alte energie. È stato quindi studiato il rate oltre i 90 keV, che mostra oscillazioni random gaussiane compatibili con 0.

Fin qui sempre single-hit. Si è dimostrato quindi che esiste modulazione solo e soltatno per single-hit, cioè che niente del background la può riprodurre, che i single sono solo DM e che tutto il resto non può esserlo (per questioni probabilistiche). Quindi multi-hit sono solo BG: dimostriamolo. Facendo un grafico dei rate residui di tutti i cicli, mediando assieme i punti "vicini" (cerchi bianchi) e confrontando quelli dei single hit con i multi hit si vede che i single hit mostrano la modulazione attesa, mentre i multi hit hanno parametri di fit della modulazione compatibili con 0. Quindi, multi hit sono SOLO BG cvd.

Ulteriori analisi: fourier

Mediante il calcolo del power spectrum density si possono vedere i dati dal dominio del tempo a quello delle frequenze, e quindi studiare le (Q)PO, per esempio, in diversi intervalli di energia. Si può vedere così che l'unica feature significativa tra i 2 e i 6 kev (curva nera continua) è quella della modulazione annuale (linea verde), mentre tra i 6 e i 14 keV non si ha nulla (curva rossa tratteggiata). Nell'altro grafico si vede come tutte le altre feature oscillanti siano sotto la confidenza di 2 sigma.

Ulteriori analisi: likelihood

L'ampiezza della modulazione annuale $S_m$ (signal modulation?) può essere studiata da un metodo di massima verosimiglianza in funzione dell'energia, imponendo per ora il periodo a 1 anno e la fase a 152.5° giorno. Si ha quindi per la k-esima energia $$L(E) = \prod_{t,j}\frac{\mu_{tj}(E)^{N_{tj}(E)}e^{-\mu_{tj}(E)}}{N_{tj}(E)!}$$ con:

  • N il numero di eventi al giorno t, dal detector j nell'energia E, questo segue una distribuzione di Poisson
  • $\mu$ è il valore di aspettazione della distribuzione di Poisson a quegli t,j,E

Dato che abbiamo distinto la parte costante dalla parte modulata, il segnale complessivamente può essere scritto

$$S(t, E) = S_{cost}(E) + S_{mod}(E)\cdot cos(\omega(t-t_0)).$$

Si minimizza quindi $y = -2log(L(E)) - cost$ con parametri liberi $bg_j(E) + S_{mod}(E)$ e $S_{mod}(E)$. Fissiamo ora E per non impazzire e omettiamolo: tutti i risultati dipendono da E. Da questa analisi si ricava che si ha segnale non compatibile con zero solo sotto i 6keV, mentre sopra è tutto a 0 con fluttuazioni random: il chiquadro ridotto è 27.5/28 per ipotesi di fluttuazioni attorno a 0. Questa analisi può essere fatta per ogni singolo rivelatore, ottenendo informazioni sulla statistica degli eventi per ogni rivelatore, mostrando una uniforme casualità lungo tutti i rivelatori per tutto l'arco dei 6 anni di LIBRA. Da sottolineare che da questo tipo di analisi non risultano differenze di statistica tra i 9 detector più interni e i 16 più esterni del "cubo" totale. (Infatti, eccetto un solo detector che probabilmente si è rotto, tutti hanno un S-Smedio/sigma compatibile con 0 e con counts comparabili)

Per ultima cosa, lasciamo il parametro $t_0$ libero nella procedura di maximum likelihood delle ampiezze di modulazione. In questo caso si è usata una espressione del segnale $$S(t, E) = S_{c}(E) + S_{m}(E)\cdot cos(\omega(t-t_0)) + Z_{m}(E)\cdot sin(\omega(t-t_0))$$ e $$S(t, E) = S_{c}(E) + Y_{m}(E)\cdot cos(\omega(t-t*))$$

dove secondo la maggior parte di modelli di alone galattico ci si aspetta che Z = 0 a causa dell'ortogonalità tra le funzioni sin e cos, $S_m = Y_m$ e $t* = t_0$, a meno di possibili componenti non termalizzate di materia oscura (a causa degli ipotizzati flussi provenienti dalla galassia nana ellittica del sagittario, o per modelli alternativi che prevedono caratteristiche non termalizzate (caustics/caustic model)).

Due plot interessanti mostrano le aree di confidenza a $2\sigma$ Z vs S (Z è compatibile con 0 sempre, S è compatibile con 0 per energie tra 6 e 14 kev, ma NON per energie tra 2 e 6) e $t*$ vs Y ($t*$ è assolutamente indeterminato per 6-14, mentre ha un valore attorno a 150 per 2-6, mentre Y è uguale a S in valore e incertezza). In particolare Z è compatibile con 0, con p values entro confidenza di 95% tra 2 e 20 keV, $t*$ oscilla tra $150.5\pm7.0°$ giorno. (mettere grafico figo

Conclusioni

Tutte le possibili fonti di segnale che non siano DM, con le caratteristiche stringenti prima esposte sono state analizzate e scartate. In particolare variazioni dei flussi di muoni non possono portare a effetti in DAMA, sia perché sarebbero comunque quantitativamente trascurabili (2.5 muoni al giorno in dama possibili), ma anche perché non possono imitare la firma della DM modulation, perché indurrebbero effetti in tutto lo spettro energetico NON OSSERVATI, indurrebbero effetti modulatori anche nei multi hit NON OSSERVATI, porterebbe a variazioni i fase t0 e ampiezza S DIVERSI DAGLI OSSERVATI (in particolare t0 è spostato di circa un mese); infine, ponendo che tutto quanto detto fosse falso, se si osservasse una modulazione di muoni uguale a quella di DAMA, questa avrebbe deviazioni standard molto maggiori di quelle osservate. Qualcuno ha proposto un contributo unito di muoni e neutrini, ma benché possa simulare la modulazione in ampiezza e fase, rimane il resto di quanto detto sopra. Inoltre, in particolare, sono state escluse tutte le possibili modulazioni di lungo periodo (v grafico che mostra assenza in power spectrum di picchi pluriennali), e anche le oscillazioni brevi (sotto il mese circa) come già si è visto dai grafici prima

NB l'osservabile dell'esperimento NON È IL RATE, NON HA RATE COSTANTE, ma solo la componente modulata del rate. Questo rende importante l'esperimento, questo lo rende indipentente da qualsiasi ipotesi di cosa possa provocare i singoli recoils, lo rende libero da complessi meccanismi di selezione dati che hanno fatto perdere un sacco di tempo integrato di esperimento a altri esperimenti costretti a tener conto bg a livelli ancora più estremi, lo rende model indipendent

Purtroppo l'esperimento non è conclusivo: 1 molti modelli di molti scenari risultano compatibili con le misure di DAMALIBRA, sopratutto per il fatto che non si hanno misurazioni sotto i 2 keV, dove la maggior parte delle distinsioni si palesano. Su questo si focalizzerà particolarmente la fase 2. Inoltre si farà aumento di sensibilità e statistica, quindi ancora più stabilità di condizioni, più tempo integrato, in modo da poter indagare:

  • altre caratteristiche del segnale e effetti al 2o ordine (effetti di galassie satellite e maree sull'alone, caustics, interazioni con il sole, strutture di scala più piccola in alone, effetti giornalieri)
  • studio più approfondito dell'accoppiamento di DM con NAI (quindi migliori stime di cross sect)
  • processi rari non DM

Confronto

(grafico di main review mostra alcune ipotesi, includendo o meno l'effetto channeling di ioni poco energetici lungo l'asse cristallografico e lungo i piani del cristallo NaI drogato di Tl, considerando quenching factors dei cristalli, e le confronta con un risultato ristretto di CoGeNT con alta confidenza di negazione ipotesi no-mod) confronto con altri esperimenti per confinamenti della possibile massa a possibili sezione d'urto, sottolineare che non ha senso il confronto dato che non è escluso che diversi esperimenti rilevino DIVERSE particelle DM, WIMP o non WIMP.


In [19]:
%matplotlib inline
import numpy

import matplotlib # TODO bug in ipython? (sometime can't call the module directly)
from matplotlib import pyplot

import scipy
from scipy import stats
from scipy import optimize

matplotlib.pyplot.figure(figsize=(20,12))

x = numpy.linspace(0,365,150) # 100 linearly spaced numbers
omega = 2*3.1415/365
y = 0.7*numpy.cos(omega*x) # computing the values of sin(x)/x
matplotlib.pyplot.plot(x,y)


Out[19]:
[<matplotlib.lines.Line2D at 0x7f32312c3dd8>]
  1. The Dark Matter particles detection

A very large exposure and the full control of running conditions, with ultra low bg, are mandatory to pursue a widely sensitive direct detection of DM particles in the galactic halo

Indeed, most activities in the field release marginal exposures even after many years underground; they do not offer suitable information e.g. about operational stability and procedures during the running periods, and generally base their analysis on a particular a priori assumption on the nature of the DM particle and its interaction, and of all the used parameters. In particular, the applied rejection and subtraction procedures to reduce the experimental counting rate, in order to derive a set of recoil-like candidates, is pursued by experiments as CDMS, EDELWEISS, CRESST, XENON, LUX, etc.. It is worth noting that the applied subtraction procedures are statistical and cannot offer an unambiguous identification of the presence of DM particle elastic scatterings because of the known existing recoil-like indistinguishable background; tails of the subtracted populations can play a role as well.

Finally, the electromagnetic component of the counting rate, statistically “rejected” in this approach, can contain either the signal or part of it, and it will be lost.

In the double read-out bolometric technique, the heat signal and the ionization signal are used in order to discriminate between electromagnetic and recoil-like events. EG CDMS-II detector consisted of 19 Ge bolometers of about 230 g each one and of 11 Si bolometers of about 100 g each one. The experiment released data for an exposure of about 194 kg × day using only 10 Ge detectors in the analysis (discarding all the data collected with the other ones) and considering selected time periods for each detector. EDELWEISS employed a target fiducial mass of about 2 kg of Ge and has released data for an exposure of 384 kg × day collected in two different periods with a 17% reduction of exposure due to run selection. These two experiments claim an “event by event” discrimination between noise + electromagnetic background and recoil + recoil-like (neutrons, end-range alphas, fission fragments,...) events by comparing the bolometer and the ionizing signals for each event.

Thus, their results are,actually, largely based on huge data selections

The stability, the nonlinear response and the robustness of the reconstruction procedure are key points, as well as the associated systematical errors.

The search for time dependence require to face the objective difficulty to control all the operating conditions – at the needed level (< 1%) and owing to the limitation arising from the low duty cycle. CDMS-II to search for annual modulation in Ge target, marginal exposure by using only 8 detectors over 30 and using – among others – data that are not continuous over the whole annual periods considered in the analysis; detectors having different background rate within the signal box does not allow one to get any reliable result in the investigation of an effect at few percent level.

A statistical discrimination of nuclear recoil-like events from electromagnetic radiation

67 nuclear recoil-like events were observed in the Oxygen band. The background contribution estimated by authors ranges from 37 to 43 events, and does not account for all the observed events. The remaining number of events and their energy distribution could be interpreted – under certain assumptions – in terms of a DM candidate with spin-independent interaction and a mass in the range of 10-30 GeV. Not confirmed in the last run [34, 35], where a more marginal exposure has been used (52 kg ×day and energy threshold of 307 eV), confirming the difficulties to manage the systematics in such experiments.

articoli che non riesco ad aprire da casa:
http://www.worldscientific.com/toc/ijmpa/31/31
http://www.worldscientific.com/doi/abs/10.1142/S0217751X1642001X
http://www.worldscientific.com/doi/abs/10.1142/S0218271816300135
http://www.worldscientific.com/doi/abs/10.1142/S0218271816300184
http://iopscience.iop.org/article/10.1088/1748-0221/7/03/P03009/meta


In [ ]: